612 research outputs found

    Modelo DC de las ecuaciones de potencia aplicado a la estimación de estado en sistemas eléctricos

    Get PDF
    El crecimiento continuo de los sistemas de potencia ha provocado que la operación de los sistemas eléctricos aumente en complejidad día a día. De este aspecto surge la necesidad de mantener la operación del sistema eléctrico en óptimas condiciones. Uno de los procedimientos críticos, y de mayor importancia, que responde a la necesidad de conocer el estado del sistema durante su operación, vincula el uso de métodos de estimación de estados, cuya aplicación, principalmente, dada la alta complejidad en los sistemas de potencia actuales, comúnmente puede acarrear altos tiempos computacionales. En este contexto, el presente trabajo analiza el método estadístico de estimación de estados DC, mediante la metodología de mínimos cuadrados ponderados, que incluye el procesamiento oportuno de un conjunto de mediciones redundantes, corrigiéndolas mediante el descarte de medidas erróneas Chi-cuadrado, el cual se ha desarrollado en Matlab y validado mediante PowerFactory con Flujos de Potencia linealizados. A fin de ensayar el algoritmo propuesto, se han empleado los sistemas de prueba IEEE de 6 y 14 barras sujeto a distintos parámetros de confianza del estimador de esta forma, se pueden determinar los aspectos de seguridad en la red eléctrica.The continuous growth of power systems has caused the operation of electrical systems to increase in complexity day by day. From this aspect arises the need to maintain the operation of the electrical system in optimal conditions. One of the critical, and most important, procedures that responds to the need to know the state of the system during its operation, links the use of state estimation methods, the application of which, mainly, given the high complexity in today's power systems, can commonly lead to high computational times. In this context, this work analyzes the statistical method of estimating DC states, using the weighted least squares methodology, which includes the timely processing of a set of redundant measurements, correcting them by discarding erroneous Chi-square measurements, which has been developed in Matlab and validated by PowerFactory with linearized Power Flows. In order to test the proposed algorithm, the IEEE 6 and 14 bus test systems have been used subject to different estimator confidence parameters in this way, safety aspects in the electrical grid can be determined

    Estimación de parámetros para la toma de decisiones en el proceso de selección de asignaturas en el programa de Ingeniería Civil de la Pontificia Universidad Javeriana

    Get PDF
    La flexibilización de los sistemas de educación superior ha contribuido en la interacción transversal de los componentes centrales de cada programa académico con diferentes áreas del conocimiento, desarrollando así capacidades globales y permitiendo conexión y sinergias con profesionales de otras disciplinas [1]. El empoderamiento hacia los estudiantes en la estructuración de su propio plan de estudios ha permitido satisfacer los objetivos enfocados a captar conocimiento, paralelo a una educación integral que asegure espacios de formación investigativa y creativa. Actualmente el esquema de educación en la Pontificia Universidad Javeriana está basado en el sistema de créditos académicos. Según la Vicerrectoría Académica, un crédito corresponde a “la unidad que mide la actividad del estudiante y que pondera equilibradamente los siguientes criterios: Número total de horas de trabajo académico, tipo de trabajo asistido, grado de dificultad de la asignatura y su importancia dentro del plan de estudios” [2]. Dentro del sistema de créditos académicos se permite la selección flexible de las asignaturas del plan de estudios, restringido únicamente por el número total de créditos por matrícula y las condiciones específicas de cada asignatura.Ingeniero (a) IndustrialPregrad

    Eco-driving: ahorro de energía basado en el comportamiento del conductor

    Get PDF
    El crecimiento del número de vehículos en circulación ha experimentado un fuerte aumento en los últimos 20 años. La generalización del uso del automóvil ha tenido efectos muy positivos en la economía de los países. Sin embargo, también ha provocado grandes problemas debido la contaminación y a la cantidad de energía que consumen. Por otra parte, la mayoría de los vehículos emplean hidrocarburos, que no se encuentran disponibles en todas las regiones, provocando dependencias energéticas entre países. Además, su extracción tiene un impacto muy grande en el medioambiente. Los vehículos se han convertido en un problema importante para los gobiernos y los habitantes, que sufren enfermedades respiratorias provocadas por los gases que emiten. Ante estos inconvenientes, los gobiernos han desarrollado normativas para regular las emisiones de los vehículos. Las conductores también han empezado a exigir vehículos que consuman menos debido al aumento del precio del combustible, convirtiéndose en un factor muy importante a la hora de comprar un vehículo. Todo esto ha contribuido a que los fabricantes introduzcan en los vehículos mejoras orientadas a reducir el consumo de combustible como: optimización del motor, reducción del peso del vehículo, motores híbridos, mejoras aerodinámicas. Sin embargo, estas medidas resultan insuficientes porque el porcentaje de vehículos antiguos en circulación es muy alto. El consumo de combustible depende del vehículo, el entorno y el comportamiento del conductor. Recientemente ha surgido un método para reducir el consumo denominado “Eco-Driving”. Esta técnica de conducción se basa en el control óptimo de las variables que controla el conductor como la velocidad, la aceleración, la desaceleración y la marcha. El ahorro se consigue al minimizar las pérdidas de energía. Este método para mejorar el consumo y reducir la emisión de gases contaminantes es muy útil porque es independiente de la tecnología del vehículo. Sin embargo, el conductor necesita contar con conocimientos sobre conducción eficiente. Esta tesis se centra en la necesidad de que los conductores aprendan cómo conducir eficientemente siguiendo unas normas, basadas en la física, que reducen las demandas innecesarias de energías. Para ello se propone el uso de un asistente que evalúa el comportamiento del conductor desde el punto de vista de la eficiencia, y le propone mejoras. Además, a diferencia de otras propuestas, el sistema proporciona información sobre el entorno cercano para que el usuario pueda tomar decisiones con la suficiente antelación. Esta información es muy importante porque la clave del “eco-driving” es la capacidad del conductor para predecir el estado de la carretera en un futuro cercano. Otro de los objetivos principales de este trabajo de investigación es desarrollar métodos para motivar al usuario a conducir eficientemente, ya que en muchos estudios previos se demuestra que el conductor tiende a volver a sus hábitos de conducción previos a pesar de haber recibido formación sobre “eco-driving”. Los resultados obtenidos en la etapa de experimentación muestran un ahorro de hasta el 22.5% de combustible utilizando la propuesta descrita en esta tesis. No obstante, este porcentaje depende de la respuesta del usuario a las recomendaciones y de su estilo de conducción previo. Además se observó que es importante conocer el perfil de conducción del usuario para ajustar los consejos, y que el aprendizaje se haga de forma progresiva. En caso contrario, el conductor perderá el interés. Conocer el tipo de usuario también es relevante para elegir el incentivo que se usará como retroalimentación. Finalmente, se constata que es imprescindible emplear métodos para motivar al usuario a conducir eficientemente, siendo la gamificación una buena estrategia para conseguirlo.The growth in the number of vehicles in circulation has experienced a strong increase in the last 20 years. The widespread use of the automobile has had very positive effects on the economy of the countries. However, they have also led to major problems due to the pollution produced and the amount of energy required. On the other hand, most of the vehicles employ hydrocarbons, which are not available in all regions, causing energy dependencies between countries. In addition, its extraction has a very large impact on the environment. The vehicles have become an important problem for governments and residents who suffer from respiratory diseases caused by greenhouses emissions. In order to avoid these problems, governments have developed regulations to control the emissions from vehicles. The drivers have also begun to require efficient vehicles due to the increase in fuel prices. Currently, the fuel consumption is a very important factor to buy a vehicle. All this has caused manufacturers to introduce improvements in vehicles in order to minimize the fuel consumption such as: engine optimization, vehicle weight reduction, hybrid engines, aerodynamic improvements. However, these measures are insufficient because the percentage of older vehicles is still very high. Fuel consumption depends on the vehicle, the environment and the behavior of the driver. Recently, a method called "Eco-Driving" has gained popularity. This driving allows us to save fuel. It is based on the optimization of the parameters that the user controls such as: speed, acceleration, deceleration and gear. Fuel saving is achieved by minimizing the energy losses. This method to improve fuel consumption and reduce the emission of greenhouse gases is very useful because it is independent of the vehicle technology. However, the driver needs to know about efficient driving rules. This thesis is focused on the need to learn how to drive efficiently following a set of rules, based on physics, which reduce unnecessary energy demands. In this work, we propose the use of an assistant who evaluates the driver behavior from the point of view of efficiency, and recommends improvements in order to save fuel. Furthermore, unlike other proposals, the system provides information about the nearby environment. Therefore, the user can take decisions in advance. This information is very important because the key to "eco-driving" is the driver's ability to predict the road state in the near future. The other main objective is to develop methods to motivate the user for driving efficiently, since many previous studies demonstrates that the driver tends to return to their previous driving habits, even after having received training on "eco-driving". The results of the experimentation show a saving of up to 22.5% of fuel using the proposal described in this thesis. However, this percentage depends on user´s response to the recommendations and their previous driving style. We also highlight that is essential to know the driving profile in order to adjust the eco-driving tips, and make the learning progressively. Otherwise, the driver will lose interest. In addition, understanding the user type is relevant to choose the type of feedback. Finally, the work in this thesis demonstrates that it is essential to use methods for motivating the user. Gamification is a good strategy to get it.The research leading to these results has received funding from the ARTEMISA project TIN2009-14378-C02-02 within the Spanish "Plan Nacional de I+D+I", from the European Union's Seventh Framework Programme managed by REA-Research Executive Agency (FP7/2007-2013) under grant agreement n° 286533 and from the Spanish funded HAUS IPT-2011-1049-430000 project.Programa en Ingeniería TelemáticaPresidente: José Vehi Casellas; Vocal: Antonio Cañas Vargas; Secretario: Pedro José Muñoz Merin

    Plataforma de evaluación de algoritmos para la identificación de usuarios

    Get PDF
    La minería de datos es un campo de las ciencias de la computación referido al proceso que intenta descubrir patrones en grandes volúmenes de datos. La minería de datos busca generar información similar a la que podría producir un experto humano. Además es el proceso de descubrir conocimientos interesantes, como patrones, asociaciones, cambios, anomalías y estructuras significativas a partir de grandes cantidades de datos almacenadas en bases de datos, data warehouses o cualquier otro medio de almacenamiento de información. El aprendizaje automático o aprendizaje de máquinas es una rama de la Inteligencia artificial cuyo objetivo es desarrollar técnicas que permitan a las computadoras aprender. De forma más concreta, se trata de crear programas capaces de generalizar comportamientos a partir de una información no estructurada suministrada en forma de ejemplos. La minería de datos utiliza métodos de aprendizaje automático para descubrir y enumerar patrones presentes en los datos. En los últimos años se han aplicado las técnicas de clasificación y aprendizaje automático en un número elevado de ámbitos como el sanitario, comercial o de seguridad. Un ejemplo muy actual es la detección de comportamientos y transacciones fraudulentas en bancos. Una aplicación de interés es el uso de las técnicas desarrolladas para la detección de comportamientos fraudulentos en la identificación de usuarios existentes en el interior de entornos inteligentes sin necesidad de realizar un proceso de autenticación. Para comprobar que estas técnicas son efectivas durante la fase de análisis de una determinada solución, es necesario crear una plataforma que de soporte al desarrollo, validación y evaluación de algoritmos de aprendizaje y clasificación en los entornos de aplicación bajo estudio. El proyecto planteado está definido para la creación de una plataforma que permita evaluar algoritmos de aprendizaje automático como mecanismos de identificación en espacios inteligentes. Se estudiarán tanto los algoritmos propios de este tipo de técnicas como las plataformas actuales existentes para definir un conjunto de requisitos específicos de la plataforma a desarrollar. Tras el análisis se desarrollará parcialmente la plataforma. Tras el desarrollo se validará con pruebas de concepto y finalmente se verificará en un entorno de investigación a definir. ABSTRACT. The data mining is a field of the sciences of the computation referred to the process that it tries to discover patterns in big volumes of information. The data mining seeks to generate information similar to the one that a human expert might produce. In addition it is the process of discovering interesting knowledge, as patterns, associations, changes, abnormalities and significant structures from big quantities of information stored in databases, data warehouses or any other way of storage of information. The machine learning is a branch of the artificial Intelligence which aim is to develop technologies that they allow the computers to learn. More specifically, it is a question of creating programs capable of generalizing behaviors from not structured information supplied in the form of examples. The data mining uses methods of machine learning to discover and to enumerate present patterns in the information. In the last years there have been applied classification and machine learning techniques in a high number of areas such as healthcare, commercial or security. A very current example is the detection of behaviors and fraudulent transactions in banks. An application of interest is the use of the techniques developed for the detection of fraudulent behaviors in the identification of existing Users inside intelligent environments without need to realize a process of authentication. To verify these techniques are effective during the phase of analysis of a certain solution, it is necessary to create a platform that support the development, validation and evaluation of algorithms of learning and classification in the environments of application under study. The project proposed is defined for the creation of a platform that allows evaluating algorithms of machine learning as mechanisms of identification in intelligent spaces. There will be studied both the own algorithms of this type of technologies and the current existing platforms to define a set of specific requirements of the platform to develop. After the analysis the platform will develop partially. After the development it will be validated by prove of concept and finally verified in an environment of investigation that would be define

    Optimización de la programación del mantenimiento de activos de transmisión de energía en ambientes altamente restrictivos y mercado regulado

    Get PDF
    El presente trabajo propone un nuevo enfoque para la programación del mantenimiento preventivo, correctivo y proactivo en sistemas de transmisión de energía mediante el modelamiento de las variables que restringen la libre intervención de los equipos, considerando los criterios de expertos, el uso óptimo los recursos internos, la reducción del riesgo de afectación de los equipos y las personas bajo el cumplimiento de la regulación colombiana en materia de calidad del servicio del transporte de energía. El modelo es plasmado en los algoritmos MAGO y Harmony Search, los cuales resuelven el problema de la programación del mantenimiento de dos sistemas de transmisión de energía, el primero de 3 subestaciones y 15 órdenes de mantenimiento y el segundo, una parte del sistema real colombiano de 17 subestaciones y 214 órdenes de mantenimiento en un horizonte de más de un año.Abstract: This thesis report proposes a new approach to scheduling of preventive, corrective and proactive maintenance in power transmission systems by modeling variables restricting the free remove of assets from operation, considering the experts criteria, the optimal use of resources and crew, reducing the risk of damage to the equipment and people, under compliance with Colombian regulations about the service quality for power transmission system. The model is solved by the MAGO and Harmony Search algorithms scheduling maintenance of two power transmission systems, the first one has 3 substations and 15 maintenance orders and the second one is a portion of the Colombian real transmission system with 17 substation and 214 maintenance orders to schedule on over a year horizon.Maestrí

    DMC adaptativo para procesos no lineales utilizando inteligencia artificial

    Get PDF
    Tesis (Ingeniero Electrónico)En esta investigación, se desarrolló una estrategia adaptativa que consta de tres bloques funcionales: un controlador dinámico matricial (DMC) con modelo de referencia, un modelo no lineal en redes neuronales y un algoritmo de optimización multiobjetivo llamado Strength Pareto Evolutionary Algorithm (SPEA) II. La estrategia se basa en la integración y adecuación de cada uno de los algoritmos a la solución del problema de control adaptativo. Aquí el algoritmo evolutivo se encarga de encontrar los mejores parámetros para el controlador DMC en cada período de muestreo, basándose en la respuesta que la red neuronal le entrega al mismo, simulando un conjunto de controladores sobre esta, minimizando el error cuadrático de seguimiento y las acciones de control.Universidad del Norte. Programa de Ingeniería Electrónic

    Sistema experto para motores asistido por temperatura (SEMAT)

    Get PDF
    Proyecto de investigación (Código: VIE 5402-1341-1301) Instituto Tecnológico de Costa Rica. Vicerrectoría de Investigación y Extensión (VIE), 2017El desarrollo de sistemas informáticos que tomen decisiones como expertos humanos en un ámbito particular con base en información, es un reto científi co/ tecnológico según el contexto y en motores eléctricos estos sistemas son prácticamente inexistentes. El proyecto SEMAT busca el desarrollo de un sistema experto que pueda diagnosticar motores el ectricos con la nalidad de mejorar la competitividad de la industria nacional. Para el desarrollo del sistema experto, este proyecto ha desarrollado una bancada de pruebas automatizada para someter los motores en estudio a distintas pruebas (casos). Adem as se ha desarrollado y programado el software de captura y análisis de datos, también se realizaron más de 60 pruebas a motores con base a un dise~no de experimentos factorial con la idea de estudiar sus distintos comportamientos. Adicionalmente, se aporta un modelo térmico y se trabajo con distintos tipos de algoritmos basados en metaheurísticas con la nalidad de encontrar soluciones al modelo. Sin embargo, los resueltos encontrados no permitieron ser implementados para el desarrollo del motor de inferencia del sistema experto basado en los parámetros de los modelos térmicos. Ante dicha problemática se aporta la de fición de nuevos indicadores que son calculados a partir de la potencias desperdiciadas en los motores. Dichos índices son calculados en tiempo real y almacenados por la aplicación informática. El prototipo de sistema experto utiliza como motor de inferencia una red neuronal tipo feed-forward. Dicha red fue entrenada con distintos casos (experimentos) y los resultados indican que a partir del monitoreo de los índices es posible realizar el diagnóstico del motor tanto en su transitorio térmico como en su estado estable. Esto es sumamente robusto en el sentido que el motor puede ser diagnosticado en sus primeros minutos de operación y no requiere que alcance su estabilidad térmica. Finalmente el prototipo fue comparado con el equipo comercial, encontrando que el sistema detecta un fallo más que los detectados por el sistema comercial, es decir el sistema comercial no es capas de detectar sobrecargas térmicas, lo que si realiza el sistema basado en redes neuronales

    Sintonización automática de velocidad y posición para servomotores utilizando control difuso

    Get PDF
    T E SI S QUE PARA OBTENER EL GRADO DE MAESTRO EN CIENCIAS DE LA COMPUTACIÓNEl presente trabajo de investigación, consiste en el desarrollo de un controlador para servomotor, utilizando lógica difusa para controlar velocidad y posición. Los servomotores tienen una gran cantidad de aplicaciones de tipo industrial, principalmente en la fabricación de robots industriales, máquinas de control numérico y procesos que requieren control de movimiento preciso. La incorporación de los controladores de lógica difusa para procesos complejos permite al sistema, trabajar más cercano a la forma en que el cerebro humano funciona. La implementación de este sistema en lugar de uno lineal (PID) proporciona robustez y fiabilidad. Como ya se ha mencionado anteriormente el control de servomotores se lleva a cabo mediante algoritmos de control de tipo lineal, dentro de los que pueden resaltarse, el Proporcional (P), Integral (I), y Derivativo (D), todos estos aplicados de manera independiente según sean los requerimientos del proceso a controlar, o bien; pueden funcionar de manera combinada como el PI, el PD, o el PID, sin embargo ante cambios no lineales, su funcionamiento se ve afectado, pues dejan de trabajar eficazmente. Tomando como base de conocimiento lo anterior, se diseñó un controlador lógico difuso (fuzzy), de tipo Mamdani, que funciona con dos variables lingüísticas de entrada (velocidad y posición), un motor de inferencia difuso compuesto por un conjunto de reglas de tipo IF, THEN, ELSE, conocido como etapa de fuzzificación. A la salida del controlador se tiene una señal defuzzificada misma que se bifurca para retroalimentar al sistema, cerrando así, su lazo de control. La construcción del controlador se realizó en Matlab, utilizando para ello su módulo de edición de lógica difusa (Fuzzy Logic Designer), en un ambiente de programación gráfico e intuitivo. Por otra parte la implementación, se realizó en Labview, debido a su facilidad y rapidez para construir la interfaz gráfica y los modelos lineales que se usaron como referencia. Por lo anterior, el diseño de controladores PID basados en lógica difusa, es motivado por la habilidad de estos de capturar estrategias cualitativas de control y ofrecer un comportamiento altamente flexible

    Método para la ortorrectificación de imágenes satelitales monoscópicas de muy alta resolución espacial empleando algoritmos evolutivos

    Get PDF
    La ortorrectificación de imágenes satelitales monoscópicas de muy alta resolución (VHR, por sus siglas en inglés) espacial es un proceso fundamental para asegurar la interoperabilidad de la información espacial obtenida a partir de ellas y más si se desea generar cartografía básica. Por lo anterior, estudios previos han utilizado distintos tipos de insumos entre los que se destacan múltiples fuentes de puntos de control y modelos digitales de elevación (DEM) de todo tipo, además de probar distintos métodos de optimización. Este trabajo de investigación tiene como objetivo usar de manera conjunta y evaluar la utilización de algoritmo evolutivo Particle Swarm Optimization (PSO, por sus siglas en inglés), puntos estereoscópicos provenientes de bloques fotogramétricos y DEM de distintas fuentes, para la obtención de productos cartográficos de escala 1:10.000 comparando sus resultados con lo obtenido por mínimos cuadrados ordinarios (OLS, por sus siglas en inglés) que ofrece las soluciones comerciales más utilizadas en el mercado. La metodología se compone de tres etapas. La primera corresponde al procedimiento de evaluación de DEM disponibles, generación de bloques fotogramétricos y puntos estereoscópicos junto al aseguramiento de la calidad de estos productos desde un enfoque fotogramétrico. La segunda etapa fue realizada la ortorrectificación de las imágenes monoscópicas VHR utilizando los módulos especializados de las soluciones comerciales (OLS) más utilizadas seleccionando el grado del apropiado del modelo de disposición espacial Rational Functional Model (RFM, por sus siglas en inglés) con su correspondiente evaluación. La tercera y última etapa corresponde a los procesos necesarios para la estimación y selección de los coeficientes del modelo de disposición espacial RFM usando PSO y el método Feature Condition Analysis junto a todo el flujo necesario para la generación de la ortoimagen final junto a una validación de los supuestos estadísticos sobre los residuales. Como resultado de los experimentos con OLS se observa que el uso de los puntos estereoscópicos es adecuado, pero el DEM influencia significativamente la exactitud posicional del producto final, a pesar de no ser adecuados para la escala objetivo. Además, cada algoritmo posee su propio procesamiento traducido en el resultado final y diferente modelo seleccionado, razón de la diferencia en los resultados, por lo que es necesario profundizar con mayor rigor en estos experimentos si se desea estudiar otros tipos de métodos de optimización. Mientras que con el uso del algoritmo PSO se observó mejora en promedio en un 3% la exactitud posicional de la ortoimagen sin embargo su utilización requiere de elevados recursos computacionales y además este tipo de método de optimización no se encuentra disponible aún en software especializado siendo difícil su implementación en masa de procesos productivos cartográficos.The orthorectification of very high resolution (VHR) monoscopic spatial satellite images is a fundamental process to ensure the interoperability of the spatial information obtained from them. Therefore, previous studies have used different types of inputs, among which multiple sources of control points and digital elevation models (DEM) of all kinds stand out, in addition to testing different optimization methods. This research work aims to jointly use and evaluate the use of the evolutionary algorithm Particle Swarm Optimization (PSO), stereoscopic points from photogrammetric blocks and DEM from different sources, to obtain cartographic products of scale 1:10.000 comparing its results with that obtained by Ordinary Least Squares (OLS) that offers the most used commercial solutions. The methodology is made up of three stages. The first stage corresponds to the available DEM evaluation procedure, generation of photogrammetric blocks and stereoscopic points, together with the quality assurance of these products from a photogrammetric approach. The second stage was performed the orthorectification of the monoscopic VHR images using the specialized modules of the most used commercial solutions (OLS), selecting the degree of the appropriate spatial arrangement model Rational Functional Model (RFM) with its corresponding evaluation. The third and last stage corresponds to the processes necessary for the estimation and selection of the coefficients of the RFM spatial arrangement model using PSO and the Feature Condition Analysis method together with all the necessary flow for the generation of the final orthoimage together to a validation of the statistical assumptions about the residuals. As a result of the OLS experiments, it is observed that the use of stereoscopic points is adequate, but the DEM significantly influences the positional accuracy of the final product, despite not being suitable for the target scale. In addition, each algorithm has its own processing translated into the final result and a different selected model, which is the reason for the difference in the results, so it is necessary to delve more rigorously into these experiments if you want to study other types of optimization methods. While with the use of the PSO algorithm, an average 3 \% improvement in the positional accuracy of the orthoimage was observed; however, its use requires high computational resources and, furthermore, this type of optimization method is not yet available in specialized software. difficult its mass implementation of cartographic production processes.Línea de Investigación: Tecnologías GeoespacialesMaestrí

    Optimización robusta de carteras de inversión mediante APEA2

    Get PDF
    En el presente proyecto se muestra la aplicación de un algoritmo genético multiobjetivo al problema de la optimización de carteras de inversión. En el documento, se hace una introducción tanto a la naturaleza de los problemas de optimización, como a la Teoría de Carteras de inversión y los algoritmos genéticos multiobjetivo. Todo esto sirve de base para la resolución del siguiente problema específico: encontrar la cantidad idónea a invertir en cada una de las acciones de una cartera, atendiendo a objetivos de rendimiento, riesgo y robustez. El análisis de este tema se apoya en el uso de un framework que permite observar paso a paso el proceso de optimización, utilizando un algoritmo genético multiobjetivo (SPEA2). El uso del software permitirá obtener tanto resultados gráficos como numéricos. Este trabajo concluirá con un análisis de los resultados obtenidos para validar las formas de modelar la robustez propuesta. ________________________________________________________________________This work shows the application of the theory of genetic algorithms to an optimization problem of a portfolio of shares. In this document, we will introduce the nature of the problem as well as the Portfolio Theory and multiobjective genetic algorithms. All this is used as the basis to solve the next problem: finding the best quantity to invest in each stock of a share portfolio, according to yield, risk and robustness criteria. During the analysis we will make use of a framework that allows observing step by step the optimization process, using one multiobjective genetic algorithm (SPEA2). Using the software we will obtain graphics and numeric results. The project will end with the analysis of the results obtained in order to validate the ways to model the robustness proposed.Ingeniería en Informátic
    corecore